Sztuczna inteligencja groźna dla ludzi? Elon Musk apeluje do naukowców
Sygnatariusze listu proszą programistów pracujących nad sztuczną inteligencją, by ci "natychmiast wstrzymali na co najmniej sześć miesięcy prace nad systemami SI potężniejszymi niż GPT-4".
SI niebezpieczna dla ludzi?
List otwarty został wydany przez Instytut Przyszłości Życia i podpisany przez ponad tysiąc osób, w tym dyrektora technicznego "SpaceX" Elona Muska. Musk argumentował, że aby kierować przyszłością systemów sztucznej inteligencji protokoły bezpieczeństwa muszą zostać opracowane przez niezależnych nadzorców.
GPT-4 to najnowszy uczący się model, który powstał w amerykańskim laboratorium "OpenAI" (otwarta sztuczna inteligencja). Na stronie firmy czytamy, że ten model "wykazuje wydajność na poziomie człowieka w różnych profesjonalnych i akademickich testach porównawczych".
W liście otwartym zaś jego autorzy napisali, że "potężne systemy sztucznej inteligencji powinny być opracowywane tylko wtedy, gdy mamy pewność, że ich efekty będą pozytywne, a ryzyko będzie możliwe do opanowania". Znajdziemy tam również ostrzeżenia, że na tym etapie "nikt nie może zrozumieć, przewidzieć ani niezawodnie kontrolować" nowych potężnych narzędzi opracowanych w laboratoriach sztucznej inteligencji.
Eksperci techniczni, którzy podpisali się pod listem powołują się na ryzyko propagandy i kłamstw rozpowszechnianych za pośrednictwem artykułów generowanych przez sztuczną inteligencję, które wyglądają na prawdziwe. Zdaniem sygnatariuszy istnieje możliwość, że programy SI mogą przewyższyć pracowników i sprawić, że niektóre zawody staną się zbędne.
Protokoły bezpieczeństwa
W liście otwartym czytamy ponadto, że "laboratoria sztucznej inteligencji i niezależni eksperci powinni wykorzystać sugerowaną sześciomiesięczną przerwę, aby wspólnie opracować i wdrożyć zestaw protokołów bezpieczeństwa dla zaawansowanego projektowania i rozwoju sztucznej inteligencji".
"Równolegle programiści SI muszą współpracować z decydentami, aby radykalnie przyspieszyć rozwój solidnych systemów zarządzania SI" – głoszą autorzy listu. Sygnatariusze zaznaczają jednak, że ogólnie rozwój sztucznej inteligencji nie powinien być wstrzymywany.
Autorzy listu twierdzą, że apelują "jedynie o wycofanie się z niebezpiecznego wyścigu między coraz większymi, nieprzewidywalnymi modelami, których możliwości stale się zwiększają".
Komu przeszkadza SI?
Według danych rejestru przejrzystości Unii Europejskiej Instytut Przyszłości Życia jest finansowany głównie przez Fundację Muska, a także przez londyńską grupę Founders Pledge i Fundację Społeczności Doliny Krzemowej.
Musk, właściciel firmy produkującej samochody elektryczne Tesla wykorzystującej sztuczną inteligencję w swoich systemach autopilota, już wcześniej wyrażał obawy dotyczące szybkiego rozwoju sztucznej inteligencji.
ChatGPT, produkt firmy OpenAI wspieranej przez Microsoft, od czasu swojej premiery w zeszłym roku napędza wyścig programistów. Skłania swoich rynkowych konkurentów do przyspieszenia prac nad podobnymi dużymi modelami językowymi, a firmy do wprowadzania sztucznej inteligencji do swoich produktów.